هوش مصنوعی

جستجوی اوپن‌ای‌آی برای انتخاب رئیس جدید بخش آمادگی

شرکت OpenAI به دنبال جذب یک مدیر اجرایی جدید است که مسئولیت بررسی خطرات نوظهور مربوط به هوش مصنوعی در حوزه‌هایی از جمله امنیت رایانه و سلامت روان را برعهده بگیرد.

مدیرعامل OpenAI، سم آلتمن، در مطلبی که در شبکه اجتماعی ایکس منتشر کرد، اذعان داشت که مدل‌های هوش مصنوعی «تاکنون برخی چالش‌های واقعی ایجاد کرده‌اند»، از جمله «تأثیرات بالقوه مدل‌ها بر سلامت روان» و همچنین مدل‌هایی که «آن‌قدر در حوزه امنیت رایانه‌ای پیشرفته شده‌اند که شروع به شناسایی آسیب‌پذیری‌های حیاتی کرده‌اند».

آلتمن نوشت: «اگر تمایل دارید به جهان کمک کنید تا دریابد چگونه می‌توان مدافعان امنیت سایبری را با توانمندی‌های پیشرفته تقویت کرد و همزمان مطمئن شد مهاجمان نمی‌توانند از این قابلیت‌ها برای آسیب‌رساندن استفاده کنند، به خصوص با ایمن‌سازی هرچه بیشتر تمامی سیستم‌ها، و همچنین درباره نحوه انتشار قابلیت‌های زیستی و اطمینان از امنیت سیستم‌هایی که می‌توانند به صورت خودکار بهبود یابند، لطفاً درباره ارسال درخواست همکاری فکر کنید.»

در توضیحات شغلی جایگاه «مدیر آمادگی» در OpenAI آمده است که این شغل مسئول اجرای چارچوب آمادگی شرکت است، یعنی «چارچوبی که رویکرد OpenAI را به رصد و آمادگی برای قابلیت‌های مرزی که خطراتی از جنس آسیب بزرگ ایجاد می‌کنند، شرح می‌دهد».

این شرکت برای اولین بار در سال ۱۴۰۲ اعلام کرد که تیم آمادگی را ایجاد می‌کند و گفت این تیم مسئول بررسی خطرات بالقوه «فاجعه‌آمیز» است، چه این خطرات نزدیک باشند، مانند حملات فیشینگ، یا ریشه در آینده‌ای دور و فرضی داشته باشند، مانند تهدیدات هسته‌ای.

کمتر از یک سال پس از آن، OpenAI مدیر آمادگی، الکساندر مدری، را به موقعیتی با تمرکز بر استدلال هوش مصنوعی منتقل کرد. سایر مدیران بخش ایمنی نیز شرکت را ترک کردند یا در خارج از حوزه آمادگی و ایمنی عهده‌دار نقش‌های جدید شده‌اند.

همچنین این شرکت اخیراً چارچوب آمادگی خود را به‌روزرسانی کرده و اعلام نموده است که ممکن است «الزامات ایمنی» خود را در صورتی که یک آزمایشگاه هوش مصنوعی رقیب یک مدل «پرریسک» را بدون محافظت‌های مشابه ارائه کند، «تنظیم» کند.

همانطور که آلتمن در پست خود اشاره کرد، ربات‌های هوش مصنوعی مولد با توجه فزاینده‌ای نسبت به تأثیر آن‌ها بر سلامت روان روبرو شده‌اند. اخیراً شکایاتی مطرح شده است که ادعا می‌کنند چت‌بات ChatGPT شرکت OpenAI توهمات کاربران را تشدید کرده، انزوای اجتماعی آن‌ها را افزایش داده و حتی منجر به اقدام به خودکشی در برخی موارد شده است. (این شرکت اعلام کرده که به تلاش برای بهبود توانایی ChatGPT در شناسایی نشانه‌های پریشانی عاطفی و ارجاع کاربران به حمایت‌های واقعی ادامه می‌دهد.)

علیرضا

علیرضام، یه عشق تکنولوژی که همیشه دنبال خبرای جدید و داغ دنیای دیجیتال می‌گرده

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا